首页> 外文OA文献 >Attention-Based Multimodal Fusion for Video Description
【2h】

Attention-Based Multimodal Fusion for Video Description

机译:基于注意力的多模融合视频描述

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Currently successful methods for video description are based onencoder-decoder sentence generation using recur-rent neural networks (RNNs).Recent work has shown the advantage of integrating temporal and/or spatialattention mechanisms into these models, in which the decoder net-work predictseach word in the description by selectively giving more weight to encodedfeatures from specific time frames (temporal attention) or to features fromspecific spatial regions (spatial attention). In this paper, we propose toexpand the attention model to selectively attend not just to specific times orspatial regions, but to specific modalities of input such as image features,motion features, and audio features. Our new modality-dependent attentionmechanism, which we call multimodal attention, provides a natural way to fusemultimodal information for video description. We evaluate our method on theYoutube2Text dataset, achieving results that are competitive with current stateof the art. More importantly, we demonstrate that our model incorporatingmultimodal attention as well as temporal attention significantly outperformsthe model that uses temporal attention alone.
机译:当前成功的视频描述方法基于使用递归神经网络(RNN)的编码器-解码器句子生成。最近的工作表明了将时间和/或空间注意机制集成到这些模型中的优势,其中解码器网络预测每个单词在描述中通过有选择地给予来自特定时间帧的编码特征(时间注意力)或来自特定空间区域的特征(空间注意力)更多的权重。在本文中,我们建议扩展注意力模型,使其不仅选择性地参与特定时间或空间区域,而且选择性地参与特定的输入方式,例如图像特征,运动特征和音频特征。我们称为“多模式注意”的依赖于模态的新关注机制提供了一种融合多模式信息进行视频描述的自然方式。我们在Youtube2Text数据集上评估了我们的方法,获得了与当前技术水平相抗衡的结果。更重要的是,我们证明了包含多模式注意和时间注意的模型明显优于仅使用时间注意的模型。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号